存在几种不同的方法可以确保未来变革性人工智能 (TAI) 或人工智能超级智能 (ASI) 系统的安全 [Yampolskiy, 2018, Bostrom, 2014],不同方法的支持者对其工作在短期内以及对未来系统的重要性或有用性提出了不同且有争议的主张。高可靠性代理设计 (HRAD) 是最具争议和最雄心勃勃的方法之一,由机器智能研究所 [Soares and Fallenstein, 2017] 等机构倡导,关于它是否以及如何降低未来人工智能系统的风险,人们提出了各种论点。为了减少关于人工智能安全性的辩论中的混乱,我们在此以 Rice [2020] 之前的讨论为基础,该讨论收集并提出了四个核心论点,用于证明 HRAD 是实现人工智能系统安全的途径。我们将这些论点命名为 (1) 附带效用、(2) 消除混淆、(3) 精确规范和 (4) 预测。其中每一个都对未来人工智能系统如何存在风险提出了不同的、部分相互冲突的说法。我们根据对已发表和非正式文献的审查以及咨询就该主题发表立场的专家,解释了这些假设和主张。最后,我们简要概述了反对每种方法和总体议程的论点。
主要关键词
![arXiv:2201.02950v1 [cs.AI] 2022 年 1 月 9 日PDF文件第1页](/bimg/9/9ddc150168f38ef1c8f02bc386975287a70c3e85.webp)
![arXiv:2201.02950v1 [cs.AI] 2022 年 1 月 9 日PDF文件第2页](/bimg/e/e51f37572bfbf002cb636414b809a01cf84035e9.webp)
![arXiv:2201.02950v1 [cs.AI] 2022 年 1 月 9 日PDF文件第3页](/bimg/7/7430e338eb004328767b0c86e8682a21fefc86fc.webp)
![arXiv:2201.02950v1 [cs.AI] 2022 年 1 月 9 日PDF文件第4页](/bimg/a/a19ff29d29d1b7d13c9b344ac9d18b196ae037ec.webp)
![arXiv:2201.02950v1 [cs.AI] 2022 年 1 月 9 日PDF文件第5页](/bimg/d/db0bf723126eb220e50f9b63d48a7fd8faa0996e.webp)
